Notícias
Projeto de lei pune divulgação de imagens sexuais geradas por inteligência artificial
.jpg)
Na última semana, a Câmara dos Deputados aprovou um projeto de lei que pune a divulgação de conteúdo de nudez ou ato sexual falso gerado por meio de inteligência artificial. O texto segue para análise do Senado Federal.
A proposta aprovada é o substitutivo da relatora, Yandra Moura (União-SE), ao Projeto de Lei 3821/2024, da deputada Amanda Gentil (PP-MA).
Se aprovado o projeto, o crime incluído no Código Penal pode ser punido com reclusão de 2 a 6 anos e multa se o fato não constituir crime mais grave. A pena será aumentada de 1/3 até a metade se a vítima for mulher, criança, adolescente, pessoa idosa ou com deficiência.
Além disso, a pena será aumentada de 1/3 ao dobro caso o crime seja cometido com a disseminação em massa por meio de redes sociais ou plataformas digitais. O substitutivo também inclui tipificação semelhante no Código Eleitoral, para coibir a prática em campanhas eleitorais, com pena de reclusão de 2 a 8 anos e multa.
Ainda conforme a proposta, haverá o mesmo aumento de pena quando a ofendida for mulher, pessoa com deficiência ou idosa (1/3 até a metade). Quando a conduta for praticada por candidato, além das penas previstas será imposta a cassação do registro de candidatura ou do diploma.
Fins difamatórios e abusivos
Para a advogada Patrícia Sanches, presidente da Comissão de Tecnologia do IBDFAM, o projeto “é uma resposta necessária à crescente disseminação de ’deepfakes’ (adulteração de rostos em fotos ou vídeos por meio da inteligência artificial) utilizados para fins difamatórios e abusivos”.
“O projeto prevê alteração no Código Penal para inserir a tipificação deste ato no art. 216-C, com pena prevista de reclusão de 2 a 6 anos e multa, com previsão de aumento de 1/3 se o ato for praticado contra mulher, e previsão de aumento ainda maior se compartilhado massivamente”, detalha a especialista.
Segundo Patrícia Sanches, a tipificação penal específica pode oferecer maior segurança social, inibindo tais práticas. “No entanto, sua efetividade dependerá da clareza na definição do crime e da viabilidade de aplicação das sanções, considerando a dificuldade na rastreabilidade dos responsáveis.”
A regulamentação da IA, explica a advogada, deve equilibrar inovação e proteção jurídica. “Atos danosos são praticados, independente da ferramenta, e a IA já vem sendo usada como ferramenta para práticas criminosas.”
“Exigir transparência na formatação dos algoritmos, seguida da implementação de marcas d'água digitais, podem auxiliar na responsabilização de plataformas que não gerem mecanismos de verificação, facilitando a disseminação de práticas como essas. Definir responsabilidades é um fator importante para evitar incertezas jurídicas que possam inibir o desenvolvimento tecnológico legítimo”, observa.
Patrícia Sanches lembra que já existem ferramentas de detecção de deepfakes, baseadas em aprendizado de máquina, análise de inconsistências em pixels e metadados, além da implementação de hashes digitais para autenticação de conteúdo. “Empresas como Microsoft, Adobe e Google já desenvolvem ferramentas que identificam e rotulam conteúdos manipulados para evitar sua propagação.”
Na visão dela, os principais desafios vão desde a dificuldade na identificação da origem das imagens falsas, principalmente quando utilizadas redes anônimas e servidores em locais sem regulamentação específica, até a constante evolução da IA, que torna os métodos de detecção obsoletos muito rapidamente.
“Também é importante estabelecer cooperação internacional para investigar e punir crimes digitais transfronteiriços, e considerar o risco de censura excessiva se a regulamentação não for bem delimitada, podendo afetar usos legítimos da tecnologia”, conclui.
Por Débora Anunciação
Atendimento à imprensa: ascom@ibdfam.org.br